Loading...
机构名称:
¥ 2.0

抽象的自主系统越来越被期望在对手存在下运行,尽管对手可以仅通过观察系统就可以推断敏感信息,甚至无需与之互动。因此,在这项工作中,我们提出了一个欺骗性的决策框架,该框架不仅隐藏了敏感信息,而且实际上积极地误导了对此的对手。我们将自主系统建模为马尔可夫决策过程,我们考虑使用反向强化学习来推断其奖励功能的对手。为了应对此类努力,我们为政策综合问题提出了两种正则化策略,这些策略积极欺骗了对系统的基本奖励的对手。欺骗的第一种形式是“分歧”,它导致对手就系统的奖励函数的含义得出任何错误结论。第二种形式的欺骗是“针对性的”,它导致对手就系统的奖励函数的含义得出特定的错误结论。然后,我们展示如何在政策优化问题中实施每种形式的欺骗,并在分析中分析欺骗引起的总累积奖励的损失。接下来,我们将这些发展与一个真实的代理和多个诱饵一起在多代理的顺序决策问题中进行评估。我们表明,转移欺骗会导致对手相信最重要的代理人是最小的

arxiv:2501.18803v1 [cs.lg] 2025年1月30日

arxiv:2501.18803v1 [cs.lg] 2025年1月30日PDF文件第1页

arxiv:2501.18803v1 [cs.lg] 2025年1月30日PDF文件第2页

arxiv:2501.18803v1 [cs.lg] 2025年1月30日PDF文件第3页

arxiv:2501.18803v1 [cs.lg] 2025年1月30日PDF文件第4页

arxiv:2501.18803v1 [cs.lg] 2025年1月30日PDF文件第5页

相关文件推荐